核心要点AI 数据中心有三种扩展策略:纵向扩展(Scale-Up)、横向扩展(Scale-Out)、跨域扩展(Scale-Across)纵向扩展局限于单机架内;横向扩展跨机架但在同一数据中心;跨域扩展则是数据中心之间的扩展三种模式采用不同互联方案,分别以延迟或抖动为核心优化目标当下的数据中心负载(尤其是 AI 与高性能计算 HPC),已突破单机架乃至单一数据中心的物理、功耗与架构极限。两种传统扩展方式备受关注:纵向扩展通常限于机架内部,横向扩展则延伸至数据中心内的多个机架。当单数据中心资源耗尽时,业界开始
关键字:
纵向扩展 横向扩展 数据中心 Scale-Up Scale-Out Scale-Across
核心要点功耗与散热成为首要设计考量,而非仅作为优化项硬件架构需从零开始设计硬件、软件、模型协同开发必不可少边缘 AI 功耗:核心设计要素边缘端部署 AI,并非简单缩小云端方案,也不是对现有微控制器 / 微处理器做小幅扩展,而是硬件、软件、模型协同开发的系统性问题。当前绝大多数 AI 研发资源集中在大型数据中心的训练环节,功耗因总量巨大而备受关注,推动了半导体与 EDA 行业最前沿的散热、封装技术研发。但在边缘端 —— 将训练好的模型转化为具备实用价值的终端设备 —— 情况截然不同。在边缘端,功耗依然关键,
关键字:
边缘端 AI 功耗设计
3月12日,中科曙光宣布实现国产高端原生RDMA技术重大突破,正式发布首款全栈自研400G无损高速网络——scaleFabric。该产品基于原生RDMA架构,从底层的112G SerDes IP、硬件设备到上层的管理软件实现100%自主研发,填补了国内数据中心高速网络领域的空白,以比肩国际顶尖同类产品的性能表现,为超大规模智算集群铺就了一条高带宽、低时延、真无损、超可靠的“算力大动脉”。 高端智算互联待破局随着AI大模型训练与高通量推理计算需求持续扩大,万卡级乃至更大规模
关键字:
AI 中科曙光 高速互联
根据TrendForce(集邦科技)最新晶圆代工产业研究,2025年第四季先进制程持续受惠于AI server GPU、Google TPU供不应求,加上智慧手机新品驱动手机主晶片投片,出货表现亮眼。 成熟制程部分,server、edge AI的电源管理订单维持8寸高产能利用率,甚至酝酿涨价,加上12寸产能利用率大致持平,推升该季度全球前十大晶圆代工厂合计产值季增2.6%,为近463亿美元。总结2025全年前十大晶圆代工业者合计产值为1,695亿美元左右,年增26.3%,创下新高。 展望2026年,即便上
关键字:
AI 晶圆代工 TrendForce
3月13日,埃隆·马斯克 (Elon Musk) 旗下的人工智能 (AI) 初创公司xAI,其联合创始人离职潮仍在持续。据知情人士透露,戴子航已于本周早些时候离开xAI。他在X平台个人资料中的xAI认证标识也已消失。与此同时,内部人士称,张国栋已向同事透露,他计划在未来几天内离职。目前,他的X资料上仍保留着xAI的认证标识。在此之前,xAI的多位联合创始人已相继出走,包括托比·波伦 (Toby Pohlen)、吉米·巴 (Jimmy Ba,华裔)、吴宇怀和杨格
,他们均于今年1月以来相继离职。随着戴子航
关键字:
AI
英伟达CEO黄仁勋罕见发布个人署名文章《AI是个五层蛋糕》。他指出,AI不是单一模型或应用,而是一个正在形成的“五层蛋糕”基础设施体系 —— 能源、芯片、基础设施、模型、应用,还需数万亿美元建设。以下为全文:人工智能是当今塑造世界最强大的力量之一。它不是一个应用,也不是单一模型,而是如同电力和互联网一般的关键基础设施。人工智能的运行依托于切实的硬件、能源与经济规律。它消耗原材料,并将其大规模转化为智能产出。每一家企业都将应用它,每一个国家都将构建它。若要理解人工智能为何以此种态势演进,我们需要回归「第一性
关键字:
英伟达 黄仁勋 AI
HyperLight、联华电子以及其旗下子公司联颖光电于今(12)日共同宣布三方展开策略性合作,在6吋及8吋晶圆上量产HyperLight的TFLN(Thin-Film Lithium Niobate,铌酸锂薄膜) Chiplet™平台。此次合作象征TFLN光子技术商业化的重要里程碑,将为AI与云端基础设施的大规模布建提供关键制造能量。TFLN Chiplet™平台自设计之初即以支援AI基础设施规模化量产为目标,整合了短距离IMDD(Intensity Modulation Direct Det
关键字:
联华电子 HyperLight 联颖光电 光互联 AI TFLN
随着人工智能在整个电子市场中的重要性不断提升,英伟达的 GPU 与数据中心处理器已成为市场主流。为推动开发者开展创新研发,英伟达推出了 Jetson AGX Orin 开发套件。这是一套可用于量产的 AI 开发平台,包含 Jetson AGX Orin 64GB 模块、散热片与载板。该套件让工程师能够基于 Jetson Orin 开发 AI 设计原型、AI 机器人及其他自主设备。以下是对该开发板的部分深度拆解内容。规格总结64GB 移动 LPDDR5X 内存2048 核心英伟达安培架构 GPU,含 64
关键字:
Nvidia Jetson AGX Orin 开发套件 AI 开发
商业与技术洞察公司Gartner预测,到 2030 年,中国 80%的本地 AI基础设施将采用本土研发的AI芯片,而目前这一比例仅为20% 。Gartner研究总监金玮表示:“美国政府对高性能AI加速器和先进半导体制造技术实施出口限制,推动了中国自主AI芯片的研发。作为回应,中国政府在本地 AI基础设施投资中强制要求实现自给自足, 为国内 AI芯片供应商创造了庞大、受保护且较为稳定的市场。”中国半导体企业已具备替代全球领先厂商的 AI芯片设计能力。中国 AI芯片企业采用了与算法高度契合的芯片架构( AAS
关键字:
Gartner AI
随着中国企业希望从人工智能(AI)试点阶段迈向真正能用于生产环境、以决策为核心的AI系统,中国CIO对Palantir的关注度逐渐升温。Palantir常被视为一个标杆,企业通过将工程团队深入嵌入业务,通过统一语义层,实现数据、分析和运营的整合。与此同时,大规模机器学习和基础模型的发展,进一步印证了AI发展中的一个长期洞察,即依靠数据和算力实现扩展的系统,始终优于依赖人工设计知识结构的系统。目前,许多中国首席信息官(CIO)将Palantir视为企业AI平台的参考标杆。然而,在中国碎片化和以项目为主导的I
关键字:
AI Gartner 企业转型
TI 的实时控制、传感与电源产品组合结合 NVIDIA 技术,推动更安全的人形机器人开发进程TI 的实时控制、传感与电源技术与 NVIDIA AI 基础设施相结合,使人形机器人能够在复杂环境中安全、高效地运行。新闻亮点:· TI 与 NVIDIA 正展开合作,加速人形机器人从仿真到在现实世界安全部署的进程。· 作为此次合作的一部分,TI 将其毫米波雷达技术与 NVIDIA Jetson Thor 平台及 NVIDIA Holoscan 平台相结合,助力物理 AI 应用实现低延迟 3D 感知与安全感知能力。
关键字:
TI NVIDIA 机器人 AI 英伟达
全球工业物联网与嵌入式计算领域供应商研华科技(Advantech)宣布,其边缘产品线正式引入AMD EPYC嵌入式4005系列处理器,进一步拓展高性能边缘计算布局。该处理器平台采用服务器级架构,最高可达16核,并提供长期供货保障。相较同类竞品 CPU,其性能提升高达 1.44 倍,可为工业自动化、机器视觉、机器人、医学影像及边缘人工智能等领域,提供稳定可靠、可灵活扩展的计算支持。基于这一高效能架构,研华科技重磅推出紧凑型边缘人工智能高性能计算系统AIR-420,以及Micro-ATX工业主板AIMB-52
关键字:
高性能边缘计算 研华 AI 工业
受 AI 热潮推动,如今热销的计算硬件不只有显卡和 NAND 闪存。AMD 与英特尔高管均指出,X64 CPU 需求大幅上涨—— 这一方面源于整体 AI 算力基础设施的大规模建设,更直接的原因则是AI 推理与智能体 AI(Agentic AI)负载的快速普及。在此之前,GPU 一直是 AI 领域无可争议的硬件主角。凭借强大的并行计算能力,GPU 能够承担现代神经网络所需的繁重运算,尤其在模型训练阶段,拥有数千个核心的 GPU 可以高效完成将训练数据转化为权重参数所需的并行矩阵乘法。英伟达占据了数据中心市场
关键字:
CPU AI Intel AMD
过去一年,如果你关注通信行业的新闻,大概很难躲过「AI-RAN」这个词。英伟达和软银牵头成立的 AI-RAN 联盟,T-Mobile 西雅图的实验室测试,Indosat 在印尼完成的 AI 通话演示——一连串的动态似乎在传递一个信号:GPU 即将大规模进入基站,AI 正在从「网络上层」下沉到「无线底层」。但如果你有机会和运营商的朋友聊一聊,会发现他们的态度远没有发布会舞台上那么激动。兴奋是有的,但更多的是审慎、观望,甚至是一丝不易察觉的疑虑:基站里真的需要塞进一块 GPU 吗?这笔账到
关键字:
GPU AI-RAN
在过去三年里,AI服务器市场的叙事逻辑高度单一:谁拥有更多的GPU,谁就掌握了通往通用人工智能(AGI)的钥匙。然而,随着AI应用从简单的聊天机器人升级为能自动执行复杂流程的代理AI(Agentic AI),数据中心的底层算力需求正在发生本质性的剧变。汇丰证券在最新发布的深度行业报告中指出,一个“算力再平衡”的时代已经开启,CPU正重新成为AI数据中心的决策枢纽。早期的AI模型主要依赖大规模GPU进行并行计算,但代理AI的工作流则完全不同,涉及大量的逻辑分支、任务同步和多线程处理。代理AI不仅需要输出内容
关键字:
代理AI Agentic AI CPU GPU
scale ai介绍
您好,目前还没有人创建词条scale ai!
欢迎您创建该词条,阐述对scale ai的理解,并与今后在此搜索scale ai的朋友们分享。
创建词条
关于我们 -
广告服务 -
企业会员服务 -
网站地图 -
联系我们 -
征稿 -
友情链接 -
手机EEPW
Copyright ©2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《电子产品世界》杂志社 版权所有 北京东晓国际技术信息咨询有限公司
京ICP备12027778号-2 北京市公安局备案:1101082052 京公网安备11010802012473